• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " EC2"에 대한 통합 검색 내용이 51개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 주요 클라우드 기업과 AI 관련 협력 강화 계획 소개
엔비디아는 GTC 행사에서 디지털 트윈과 인공지능 등 다양한 영역에서 업계 주요 기업과의 파트너십 내용을 소개했다. 이 가운데 AWS, 마이크로소프트, 구글 클라우드, 오라클 등과는 클라우드 상에서 AI 활용을 확대하는 것을 중심으로 협력을 강화할 계획이다.   AWS : 차세대 GPU 플랫폼 및 AI 인프라 제공 엔비디아는 차세대 GPU 플랫폼인 블랙웰(NVIDIA Blackwell)이 AWS에 제공된다고 발표했다. AWS는 5세대 엔비디아 NV링크로 상호 연결된 72개의 블랙웰 GPU와 36개의 그레이스 CPU로 구성된 GB200 NVL72를 갖춘 엔비디아 블랙웰 플랫폼을 제공할 예정이다. 엔비디아는 엔비디아 블랙웰이 AWS상에서 상당한 양의 컴퓨터 리소스를 필요로 하는 수조 개의 파라미터의 언어 모델의 추론 작업을 크게 향상시킬 것으로 전망하고 있다. 엔비디아와 AWS는 양사의 기술을 지속적으로 통합해 나가는 파트너십을 강화할 계획이다. 여기에는 차세대 엔비디아 블랙웰 플랫폼과 AI 소프트웨어를 비롯해 AWS의 니트로 시스템(Nitro System)과 AWS KMS(키 관리 서비스)의 고급 보안, 엘라스틱 패브릭 어댑터(EFA) 페타비트 규모의 네트워킹, 아마존 EC2(엘라스틱 컴퓨트 클라우드) 울트라클러스터 하이퍼스케일 클러스터링 등이 있다. 양사는 이런 기술을 함께 사용함으로써 아마존 EC2에서 이전 세대 엔비디아 GPU보다 더 빠르고, 저렴한 비용으로 대규모로 수조 개의 파라미터 거대 언어 모델(LLM)에 대한 실시간 추론을 구축, 실행할 수 있을 것으로 보고 있다. AWS는 엔비디아 H100 기반 EC2 P5 인스턴스의 성공을 기반으로, 대규모로 생성형 AI 훈련과 추론을 가속화하는 EC2 울트라클러스터에 배치된 새로운 B100 GPU를 탑재한 EC2 인스턴스를 제공할 계획이다. 또한 AWS에서 공동으로 만들어진 AI 플랫폼인 엔비디아 DGX 클라우드에서도 GB200을 사용할 수 있다.    마이크로소프트 : 생성형 AI 및 디지털 트윈 기술을 클라우드에서 통합 엔비디아는 GTC에서 마이크로소프트 애저(Azure), 애저 AI 서비스, 마이크로소프트 패브릭(Fabric), 마이크로소프트 365에 최신 엔비디아 생성형 AI와 옴니버스(Omniverse) 기술을 통합한다고 밝혔다. 엔비디아 옴니버스 클라우드 API(Omniverse Cloud API)는 올해 말 마이크로소프트 애저에서 먼저 제공되며, 개발자들은 기존 소프트웨어 애플리케이션에서 향상된 데이터 상호운용성, 협업, 물리 기반 시각화를 이용할 수 있도록 지원할 예정이다. 엔비디아 GPU와 엔비디아 트리톤 추론 서버(Triton Inference Server)는 마이크로소프트 365용 마이크로소프트 코파일럿에서 AI 추론 예측을 지원한다.  또한, 마이크로소프트는 엔비디아 그레이스 블랙웰 GB200과 고급 엔비디아 퀀텀-X800 인피니밴드(Quantum-X800 InfiniBand) 네트워킹의 성능을 애저에 도입할 예정이다. 이외에도 마이크로소프트는 엔비디아 H100 NVL 플랫폼에 기반한 애저 NC H100 v5 VM(가상머신)의 정식 출시를 발표했다. 미드레인지 훈련과 추론을 위해 설계된 NC 시리즈 VM은 이는 고객들에게 1개에서 2개의 엔비디아 H100 94GB PCIe 텐서 코어(Tensor Core) GPU로 구성된 두 등급의 VM을 제공하며, 엔비디아 멀티 인스턴스 GPU(MIG) 기술을 지원한다.   구글 클라우드 : 생성형 AI 앱의 구축과 관리 지원 엔비디아는 구글 클라우드와의 파트너십을 강화해 머신러닝(ML) 커뮤니티가 생성형 AI 애플리케이션을 쉽게 구축, 확장, 관리할 수 있도록 지원할 예정이다. 구글은 자사 제품과 개발자에게 AI 혁신을 지속적으로 제공하기 위해 새로운 엔비디아 그레이스 블랙웰(Grace Blackwell) AI 컴퓨팅 플랫폼을 도입하고, 구글 클라우드에 엔비디아 DGX 클라우드(DGX Cloud) 서비스를 적용한다고 발표했다. 아울러 엔비디아 H100 기반 DGX 클라우드 플랫폼은 이제 구글 클라우드에서 정식으로 사용할 수 있다. 구글은 최근 개방형 모델인 젬마(Gemma) 제품군 최적화를 위한 협력을 기반으로, 엔비디아 NIM 추론 마이크로서비스도 도입한다고 밝혔다. 이를 통해 구글은 개발자들이 선호하는 툴과 프레임워크를 사용해 훈련하고 배포할 수 있는 개방적이고 유연한 플랫폼을 제공할 계획이다. 또한, 양사는 엔비디아 GPU와 엔비디아 H100 그리고 L4 텐서 코어(L4Tensor Core) GPU 기반의 버텍스 AI(Vertex AI) 인스턴스에서 JAX를 지원한다고 발표했다.   오라클 : 데이터 관리용 가속 컴퓨팅과 생성형 AI 솔루션 제공 엔비디아는 자사의 풀스택 AI 플랫폼과 오라클 엔터프라이즈 AI를 결합해 운영, 위치, 보안에 대한 제어력을 강화한 AI 솔루션을 제공한다. 오라클 엔터프라이즈 AI는 OCI 전용 리전(OCI Dedicated Region), 오라클 알로이(Oracle Alloy), 오라클 EU 소버린 클라우드(Oracle EU Sovereign Cloud), 오라클 정부 클라우드(Oracle Government Cloud)에 배포 가능하다. 양사의 통합 솔루션은 퍼블릭 클라우드 또는 특정 위치의 고객 데이터센터에 유연한 운영 제어를 통해 배포할 수 있다. 오라클은 어디서나 로컬로 AI와 전체 클라우드 서비스를 제공할 수 있는 역량을 내세우면서, 배포 유형에 관계없이 일관적인 서비스와 가격을 통해 계획, 이동성, 관리를 간소화한다고 강조했다. 오라클 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 비롯한 다양한 엔비디아 스택을 활용한다. 또한, 새로 발표된 엔비디아 NIM 추론 마이크로서비스는 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버(Triton Inference Server)와 같은 엔비디아 추론 소프트웨어를 기반으로 구축된다.
작성일 : 2024-03-21
[케이스 스터디] 현대엔지니어링, 클라우드의 가상화 기술로 플랜트 설계 인프라 혁신
종합 엔지니어링 기업인 현대엔지니어링은 플랜트 설계의 시간과 비용을 줄일 수 있는 방안을 고민했고, 해결책으로 클라우드 기반의 애플리케이션 가상화 및 가상 데스크톱 인프라 기술을 선택했다. 다양한 설계 프로젝트의 복잡한 환경에 맞춰 최적화된 IT 인프라를 빠르게 구축하고 관리 효율을 높임으로써, 전반적인 시간 및 비용 효과를 추구할 수 있게 됐다. ■ 정수진 편집장   다양한 프로젝트에 따른 설계 환경의 복잡성 증가 창립 50주년을 맞은 현대엔지니어링은 화공 플랜트와 전력/에너지 플랜트 설계 및 건설을 중심으로 건축/항만 인프라와 자산관리, 친환경 에너지 등 폭넓은 비즈니스를 전개하고 있다. 2023년에는 국내 건축 프로젝트 및 해외 대형 프로젝트 실적 증가에 힘입어 국토교통부의 시공능력평가에서 4위에 오르기도 했다. 현대엔지니어링 IT지원팀의 이다영 매니저는 “발주처의 요구나 프로젝트의 성격에 따라 다양한 CAD 소프트웨어를 사용하고 있다”고 소개했다. 피드(FEED)라고 불리는 기본설계 프로젝트의 경우 3D CAD만으로 빠르게 진행하기도 하고, 설계/시공/구매/조달이 포함되는 EPC 프로젝트에서는 2D와 3D CAD를 함께 사용한다는 것이다.   ▲ 아마존 앱스트림 2.0에서 구동하는 스마트 3D   3D 설계 인프라 개선 위해 클라우드 도입 현대엔지니어링은 특히 사용 빈도가 높은 3D 설계를 위해 클라우드 인프라와 서비스를 도입했다. 주된 목적은 설계 인프라의 구축 기간을 줄이는 것이었다. 워크스테이션으로 설계를 진행하는 기존의 환경에서는 CAD 소프트웨어를 구동하기에 적절한 시스템 사양을 결정하는 것부터 시스템 구매와 시스템/서비스의 안정화까지 짧지 않은 시간이 걸린다. 현대엔지니어링은 이 부분을 클라우드 기반의 가상화 기술로 해결할 수 있을 것으로 보았다. 또한 코로나19의 대유행으로 재택근무 및 원격근무가 늘어나는 환경의 변화에 대응해야 한다는 인식이 늘어난 것도 클라우드를 고려하게 된 배경이 되었다고 한다. 현대엔지니어링은 AWS의 클라우드 컴퓨팅 인프라인 EC2, 애플리케이션 가상화 서비스인 앱스트림 2.0(Amazon AppStream 2.0), VDI(가상 데스크톱 인프라) 서비스인 아마존 워크스페이스(Amazon WorkSpaces)를 도입했다.  이다영 매니저는 “AWS는 VDI, 앱 가상화, 클라우드 그래픽 등 다양한 서비스를 제공하며, 전 세계의 리전(region)을 통해 해외 현장에서도 활용할 수 있을 것으로 보았다”면서, “국내외 엔지니어링 분야에서 레퍼런스가 나오면서 진입장벽이 낮아졌다고 판단해, POC를 통해 지난 2021년부터 클라우드를 도입하게 되었다”고 소개했다.   설계 인프라 구축 시간 줄이고 효율과 유연성은 향상 클라우드 기반 플랜트 설계 인프라의 주된 강점은 시간과 비용이다. 이다영 매니저는 “설계를 위한 IT 인프라의 구축에 걸리는 시간이 5~6개월에서 1개월로 줄었다”면서, 향후에는 코드 자동화 기술을 적용해 이 기간을 2~3주까지 줄일 수 있을 것이라고 전했다. 시간 절감은 비용 절감으로 이어진다. 피드 사업에서 클라우드로 IT 인프라 비용을 줄이고, 이를 통해 전체 프로젝트의 비용 절감도 가능하다. 또한, 워크스테이션을 장기간 사용하면 성능이 저하될 수 있는데, 가상머신을 초기화하면 이런 문제를 해결하고 퍼포먼스의 일관성을 유지할 수 있다. 가상머신의 사양을 최적화해 설계 업무의 효율을 높이게 된 것도 이점이다. 물리적인 서버와 워크스테이션은 한 번 구축하면 업그레이드나 증설이 어려워서 처음부터 높은 사양으로 도입했다. 반면, 가상머신은 최적화된 사양으로 도입한 후에도 확장이 손쉽기 때문에 설계 인프라를 유연하게 운영할 수 있게 됐다. 이다영 매니저는 “클라우드 가상머신은 설계 소프트웨어마다 요구하는 사양에 맞춰 활용이 가능하다. 예를 들어 헥사곤의 스마트 3D는 앱스트림 2.0의 그래픽 성능을 활용하고, 상대적으로 낮은 사양에서도 설계를 할 수 있는 아비바 PDMS는 GPU가 없는 VDI를 구성하는 식이다. 이렇게 필요 없는 리소스를 정리하면서 가상머신의 사양을 최적화할 수 있다”고 설명했다.   ▲ 아마존 워크스페이스에서 구동하는 PDMS   성능·비용 효과에 집중하며 클라우드 도입의 장벽 제거 현대엔지니어링은 5가지의 사양으로 클라우드 가상머신을 테스트했고, 그 결과를 바탕으로 사내 설계 환경에 맞춰 가상머신 사양을 정형화한 후 확산한다는 전략을 추진하고 있다. 2021년 정식 오픈 이후에는 베트남과 러시아 등 2개 프로젝트에 클라우드를 도입했다. 이다영 매니저는 “피드 사업에서 클라우드의 효과를 체감한다면 향후 EPC 사업으로 전환하더라도 클라우드 사용에 대한 거부감을 줄일 수 있을 것”이라고 전했다. 현대엔지니어링의 클라우드 인프라 도입이 순탄한 것만은 아니었다고 한다. 가장 큰 장벽은 클라우드의 보안에 대한 우려였다. 이에 대해 현대엔지니어링은 사내망으로 구축해 보안 문제를 해소하고, AWS의 보안 솔루션을 통해 모니터링할 수 있도록 했다. 또한 사용자 권한 제어와 파일 다운로드 제한 등의 장치도 마련했다. 이다영 매니저는 “기존의 프로세스를 바꾸어야 한다는 부담도 있었는데, 이 부분은 클라우드의 성능과 비용 효과를 중심으로 사내 구성원들을 설득했다”고 전했다. 설계 소프트웨어 인프라 관리 측면에서는 빠른 구축과 관리 포인트 감소라는 이점을, 설계 담당자 측면에서는 고성능의 PC가 없어도 쉽게 접속해 사용할 수 있다는 장점을 사내 구성원들이 이해하면서 클라우드 도입이 진전을 보일 수 있었다고 한다.   클라우드 인프라 확대 추진할 계획 현대엔지니어링은 피드백 수렴과 안정화를 거쳐 향후 대규모 프로젝트에 클라우드를 도입할 예정이다. 그리고, 2024년에는 해외 현장에서 AWS의 해외 리전을 활용해 클라우드 인프라를 구축할 계획이다. IT 요구사항이 까다로운 대규모의 해외 프로젝트에 클라우드를 적용할 예정이며, 인도에 오픈 예정인 설계센터에도 클라우드를 도입할 계획이라고 한다. 또한, 현재 적용 중인 3D CAD 외에 2D 설계를 위한 클라우드도 테스트 중으로, 2023년 말 오픈 예정이다.   ▲ 현대엔지니어링 이다영 매니저는 “클라우드는 설계 실무와 인프라 관리 측면에서 시간과 비용 등 이점을 제공한다”고 설명했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-12-04
AWS, 자체 설계한 차세대 프로세서 그래비톤4와 트레이니움2 공개
아마존웹서비스(AWS)는 연례 콘퍼런스 ‘AWS 리인벤트 2023’에서 차세대 자체 설계 칩 제품군인 AWS 그래비톤4(AWS Graviton4)와 AWS 트레이니움2(AWS Trainium2)를 발표했다. 그래비톤4와 트레이니움2는 머신러닝(ML) 트레이닝과 생성형 인공지능(AI) 애플리케이션을 포함한 워크로드에서 개선된 가격 대비 성능과 에너지 효율을 제공한다.  그래비톤4는 기존 그래비톤3 프로세서 대비 최대 30% 향상된 컴퓨팅 성능, 50% 더 많은 코어, 75% 더 많은 메모리 대역폭을 제공해 아마존 EC2(Amazon EC2)에서 실행되는 워크로드에서 가격 대비 성능과 에너지 효율을 높이며, 모든 고속 물리적 하드웨어 인터페이스를 완전히 암호화해 보안성을 높인 것이 특징이다. 그래비톤4는 메모리에 최적화된 아마존 EC2 R8g 인스턴스로 제공돼 고객이 고성능 데이터베이스, 인메모리 캐시, 빅데이터 분석 워크로드의 실행을 개선할 수 있도록 지원한다. R8g 인스턴스는 기존 세대 R7g 인스턴스보다 최대 3배 더 많은 vCPU와 3배 더 많은 메모리로 더 큰 인스턴스 크기를 제공한다. 고객은 이를 통해 더 많은 양의 데이터 처리, 워크로드 확장, 결과 도출 시간 개선, 총 소유 비용 절감을 달성할 수 있다. 그래비톤4 기반 R8g 인스턴스는 현재 프리뷰 버전으로 제공되며, 향후 몇 달 내에 정식 출시될 예정이다.  그래비톤은 아마존 오로라(Amazon Aurora), 아마존 엘라스티캐시(Amazon ElastiCache), 아마존 EMR(Amazon EMR), 아마존 메모리DB(Amazon MemoryDB), 아마존 오픈서치(Amazon OpenSearch), 아마존 RDS(Amazon RDS), AWS 파게이트(AWS Fargate), AWS 람다(AWS Lambda)등 AWS 관리형 서비스에서 지원된다. 현재 AWS는 전 세계적으로 150개 이상의 그래비톤 기반 아마존 EC2 인스턴스 유형을 제공하고 있다. 또한 200만 개 이상의 그래비톤 프로세서를 구축했고, 상위 100대 EC2 고객을 포함해 5만 개 이상의 고객이 애플리케이션의 가격 대비 성능 최적화를 위해 그래비톤 기반 인스턴스를 사용하고 있다.   ▲ 이미지 출처 : AWS 웹사이트 캡처   한편, 트레이니움2는 1세대 트레이니움 칩 대비 최대 4배 빠른 학습 속도를 제공하도록 설계됐으며, 최대 10만 개의 칩으로 구성된 EC2 울트라클러스터(UltraClusters)에 배포할 수 있다. 이를 통해 파운데이션 모델(FM)과 대규모 언어 모델(LLM)을 빠르게 학습시키고 에너지 효율을 최대 2배까지 높인다. 트레이니움2는 1세대 트레이니움 칩에 비해 최대 4배 빠른 학습 성능과 3배 더 많은 메모리 용량을 제공하는 동시에, 와트당 성능을 최대 2배까지 개선할 수 있도록 설계됐다. 트레이니움2는 단일 인스턴스에 16개의 트레이니움 칩이 포함된 아마존 EC2 Trn2 인스턴스로 제공될 예정이다. Trn2 인스턴스는 AWS 엘라스틱 패브릭 어댑터(EFA) 페타비트급 네트워킹과 상호 연결되어 고객이 차세대 EC2 울트라클러스터에서 최대 10만 개의 트레이니움2 칩을 규모에 맞게 확장해 최대 65 엑사플롭의 컴퓨팅을 제공하고, 슈퍼컴퓨터급 성능에 온디맨드 방식으로 액세스할 수 있도록 지원한다. 이로써 고객은 기존에는 몇 달이 소요되던 3000억 개 파라미터 규모 LLM의 학습을 단 몇 주 만에 수행할 수 있다. AWS는 “각 칩 세대마다 더 나은 가격 대비 성능과 에너지 효율을 제공하며, 고객에게 AMD, 인텔, 엔비디아 등 타사의 최신 칩이 포함된 칩/인스턴스 조합 외에도 다양한 선택권을 제공해 거의 모든 애플리케이션 또는 워크로드를 아마존 EC2에서 실행할 수 있도록 지원한다”고 설명했다. AWS의 데이비드 브라운(David Brown) 컴퓨팅 및 네트워킹 부문 부사장은 “고객에게 중요한 실제 워크로드에 집중해 칩을 설계함으로써, AWS는 고객에게 진보한 클라우드 인프라를 제공할 수 있게 됐다”면서, “그래비톤4는 5년 만에 출시한 4세대 칩으로서 광범위한 워크로드를 위해 지금까지 개발한 칩 중 가장 강력하고 에너지 효율적이다. 또한, 생성형 AI에 대한 관심이 급증함에 따라 트레이니움2는 고객이 더 낮은 비용으로 더 빠르게, 그리고 더 높은 에너지 효율로 ML 모델을 훈련할 수 있도록 지원할 것”이라고 말했다.
작성일 : 2023-11-29
엔비디아, AWS와 협력 확대하며 생성형 AI 위한 인프라부터 서비스까지 제공
엔비디아는 아마존웹서비스(AWS)와 전략적 협력을 확대한다고 발표했다. 이번 협력으로 양사는 고객의 생성형 AI(generative AI) 혁신을 위한 최첨단 인프라, 소프트웨어, 서비스를 제공할 수 있도록 지원할 예정이다. 양사는 파운데이션 모델(foundation model) 훈련과 생성형 AI 애플리케이션 구축에 적합한 엔비디아와 AWS의 기술을 결합할 계획이다. 여기에는 차세대 GPU, CPU와 AI 소프트웨어를 갖춘 엔비디아의 멀티노드 시스템부터 AWS의 니트로(Nitro) 시스템 고급 가상화와 보안, EFA(Elastic Fabric Adapter) 상호 연결과 울트라클러스터(UltraCluster) 확장성까지 다양한 기술이 포함된다. AWS는 새로운 멀티노드 NV링크(NVLink) 기술이 적용된 엔비디아 GH200 그레이스 호퍼 슈퍼칩(Grace Hopper Superchips)을 클라우드에 도입한 최초의 클라우드 제공업체가 된다. 엔비디아 GH200 NVL32 멀티노드 플랫폼은 32개의 그레이스 호퍼 슈퍼칩과 엔비디아 NV링크 및 NV스위치(NVSwitch) 기술을 하나의 인스턴스로 연결한다. 이 플랫폼은 아마존 EC2(Elastic Compute Cloud) 인스턴스에서 사용할 수 있다. GH200 NVL32가 탑재된 단일 아마존 EC2 인스턴스는 최대 20TB의 공유 메모리를 제공함으로써 테라바이트 규모의 워크로드를 지원하며, AWS의 3세대 EFA 인터커넥트를 통해 슈퍼칩당 최대 400Gbps의 저지연, 고대역폭 네트워킹 처리량을 제공한다.      그리고, 엔비디아의 서비스형 AI 훈련인 엔비디아 DGX 클라우드(DGX Cloud)가 AWS에 호스팅된다. 이는 GH200 NVL32를 탑재한 DGX 클라우드로 개발자에게 단일 인스턴스에서 큰 공유 메모리를 제공한다. 엔비디아 DGX 클라우드는 기업이 복잡한 LLM(대규모 언어 모델)와 생성형 AI 모델을 훈련하기 위한 멀티노드 슈퍼컴퓨팅에 빠르게 액세스할 수 있도록 지원하는 AI 슈퍼컴퓨팅 서비스이다. AWS의 DGX 클라우드는 1조 개 이상의 파라미터에 이르는 최첨단 생성형 AI와 대규모 언어 모델의 훈련을 가속화하며, 이를 통해 통합된 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어와 함께 엔비디아 AI 전문가에게 직접 액세스할 수 있다. 한편, 엔비디아와 AWS는 세계에서 가장 빠른 GPU 기반 AI 슈퍼컴퓨터를 구축하기 위해 프로젝트 세이바(Project Ceiba)에서 협력하고 있다. 이 슈퍼컴퓨터는 엔비디아의 리서치와 개발팀을 위해 AWS가 호스팅하는 GH200 NVL32와 아마존 EFA 인터커넥트를 갖춘 대규모 시스템이다. 이는 1만 6384개의 엔비디아 GH200 슈퍼칩을 탑재하고 65 엑사플롭(exaflops)의 AI를 처리할 수 있다. 엔비디아는 이 슈퍼컴퓨터를 연구 개발에 활용해 LLM, 그래픽과 시뮬레이션, 디지털 생물학, 로보틱스, 자율주행 자동차, 어스-2(Earth-2) 기후 예측 등을 위한 AI를 발전시킬 계획이다. 이외에도, AWS는 세 가지의 새로운 아마존 EC2 인스턴스를 추가로 출시할 예정이다. 여기에는 대규모 최첨단 생성형 AI와 HPC 워크로드를 위한 엔비디아 H200 텐서 코어(Tensor Core) GPU 기반의 P5e 인스턴스가 포함된다. P5e 인스턴스에 탑재된 H200 GPU는 141GB의 HBM3e GPU 메모리를 제공하며, 최대 3200Gbps의 EFA 네트워킹을 지원하는 AWS 니트로 시스템을 결합해 최첨단 모델을 지속적으로 구축, 훈련, 배포할 수 있다. 또한 G6와 G6e 인스턴스는 각각 엔비디아 L4 GPU와 엔비디아 L40S GPU를 기반으로 하며 AI 미세 조정, 추론, 그래픽과 비디오 워크로드와 같은 애플리케이션에 적합하다. 특히 G6e 인스턴스는 생성형 AI 지원 3D 애플리케이션을 연결하고 구축하기 위한 플랫폼인 엔비디아 옴니버스(Omniverse)를 통해 3D 워크플로, 디지털 트윈과 기타 애플리케이션을 개발하는 데 적합하다. AWS의 아담 셀립스키(Adam Selipsky) CEO는 “AWS와 엔비디아는 세계 최초의 GPU 클라우드 인스턴스를 시작으로 13년 이상 협력해 왔다. 오늘날 우리는 그래픽, 게이밍, 고성능 컴퓨팅, 머신러닝, 그리고 이제 생성형 AI를 포함한 워크로드를 위한 가장 광범위한 엔비디아 GPU 솔루션을 제공한다. 우리는 차세대 엔비디아 그레이스 호퍼 슈퍼칩과 AWS의 강력한 네트워킹, EC2 울트라클러스터의 하이퍼스케일 클러스터링, 니트로의 고급 가상화 기능을 결합해 AWS가 GPU를 실행하기 가장 좋은 환경이 될 수 있도록 엔비디아와 함께 지속적으로 혁신하고 있다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 클라우드 워크로드를 혁신하고 가속 컴퓨팅을 다양한 콘텐츠 생성의 기반에 도입하고 있다. 모든 고객에게 비용 효율적인 최첨단 생성형 AI를 제공한다는 목표로, 엔비디아와 AWS는 전체 컴퓨팅 스택에 걸쳐 협력하고 있다. 이로써 AI 인프라, 가속 라이브러리, 기반 모델부터 생성형 AI 서비스를 확장한다”고 전했다.
작성일 : 2023-11-29
머신러닝용 아마존 EC2 캐퍼시티 블록에 엔비디아 H100 GPU 탑재
엔비디아는 아마존웹서비스(AWS)와 협력해 차세대 머신러닝 워크로드용 아마존 EC2 캐퍼시티 블록(Amazon Elastic Compute Cloud Capacity Blocks)에 자사의 H100 텐서 코어 GPU를 탑재한다고 밝혔다. 이번 협력을 통해 고객들은 아마존 일래스틱 컴퓨트 클라우드(EC2)로 고성능 머신러닝 워크로드용 아마존 EC2 울트라클러스터(UltraCluster)에 구축된 수백 개의 엔비디아 GPU를 확보할 수 있다. 머신러닝의 발전으로 모든 규모의 산업 분야 조직은 새로운 제품을 개발하고 비즈니스를 혁신할 수 있는 기회가 생겼다. 기존 머신러닝 워크로드에는 상당한 컴퓨팅 용량이 필요하다. 여기에 생성형 AI의 등장으로 파운데이션 모델(FM)과 대규모 언어 모델(LLM)을 훈련하는 데 사용되는 방대한 데이터세트를 처리하기 위해서는 보다 더 큰 컴퓨팅 용량이 요구된다. GPU 클러스터는 병렬 처리 기능이 결합돼 훈련과 추론 프로세스를 가속화함으로써 이 과제에 적합하다. 머신러닝용 아마존 EC2 캐퍼시티 블록은 새로운 소비형 아마존 EC2 사용 모델로, GPU 인스턴스에 쉽게 액세스해 머신러닝과 생성형 AI 모델을 훈련하고 배포할 수 있도록 함으로써 머신러닝을 대중화하는 데에 기여할 수 있다. EC2 캐퍼시티 블록을 통해 고객은 고성능 머신러닝 워크로드로 설계된 EC2 울트라클러스터에 배치된 수백 개의 엔비디아 GPU를 예약할 수 있다. 페타비트(peta-bit) 규모의 논블로킹(non-blocking) 네트워크에서 EFA(Elastic, Fabric Adapter) 네트워킹을 사용해 아마존 EC2에서 사용 가능한 높은 네트워크 성능을 제공할 수 있다. EC2 캐퍼시티 블록은 최대 8주 전에 미리 확보할 수 있으며, 예약 가능한 총 일수는 1일 단위로 1~14일이다. EC2 캐퍼시티 블록은 1~64개 인스턴스(512개 GPU)의 클러스터 크기로 엔비디아 H100 텐서 코어 GPU 기반의 아마존 EC2 P5 인스턴스에서 사용할 수 있다. 이를 통해 고객은 광범위한 머신러닝 워크로드를 유연하게 실행하고 필요한 GPU 시간만큼만 비용을 지불할 수 있다. EC2 캐퍼시티 블록은 고객이 중요한 머신러닝 프로젝트에 필요한 GPU 컴퓨팅 용량에 안정적이고 예측 가능하며 중단 없이 액세스할 수 있도록 지원한다. EC2 캐퍼시티 블록을 통해 EC2에서 머신러닝을 훈련하기 위한 높은 성능을 제공하는 EC2 P5 인스턴스를 예측 가능하도록 쉽게 이용할 수 있다. 또한 이를 통해 몇 번의 클릭만으로 GPU 인스턴스를 확보하고 머신러닝 개발을 계획할 수 있다. EC2 캐퍼시티 블록이 예약되면, 고객은 필요할 때 GPU 용량을 확보할 수 있다는 것을 알고 확실하게 머신러닝 워크로드 배포를 계획할 수 있다. 더불어 EC2 캐퍼시티 블록은 머신러닝 모델을 훈련하고 미세 조정과 짧은 실험, 향후 머신러닝 애플리케이션에 대한 수요 급증에 대비하기 위해 용량 보장이 필요할 때 사용될 수 있다. 또는 비즈니스 핵심 애플리케이션, 규제 요구 사항 또는 재해 복구 등 컴퓨팅 용량 보장이 필요한 다른 모든 워크로드 유형에 대해 온디맨드 용량 예약(On-Demand Capacity Reservations)을 계속 사용할 수 있다. EC2 캐퍼시티 블록은 AWS 미국 동부 오하이오 지역에서 사용할 수 있으며, 향후 다른 지역으로 확대될 예정이다.
작성일 : 2023-11-03
[포커스] AWS, “클라우드와 생성형 AI로 산업 분야의 혁신 뒷받침한다”
아마존웹서비스(AWS)는 10월 11일 서울 코엑스에서 ‘AWS 인더스트리 위크 2023’을 진행했다. 이번 AWS 인더스트리 위크 2023에서는 리테일, 금융, 통신 및 미디어, 제조, 하이테크 등 산업 분야를 중심으로 최신 클라우드 트렌드와 활용도 높은 기술을 소개하고, 산업별 AWS 솔루션을 통한 혁신 사례를 소개했다. ■ 정수진 편집장     국내 클라우드 투자 확대로 경제 효과 창출 AWS코리아는 지난 2016년 전 세계 12번째로 서울 리전을 개설했다. 현재 서울 리전은 4개의 가용영역(AZ)과 다수의 에지 로케이션을 운영하고 있다. AWS코리아의 함기호 대표는 개회사에서 “매월 수만 명의 한국 고객들이 애플리케이션과 데이터베이스를 효율적으로 운영하고, 최첨단 클라우드 기술을 이용하며, 데이터를 로컬에 안전하게 저장하고 대기시간을 줄일 수 있게 됐다”면서, 서울 리전에 대한 AWS의 지속적인 투자가 한국 GDP에도 가시적인 영향을 주었다고 소개했다. AWS코리아에 따르면, 지난 5년간 AWS는 서울 리전의 데이터센터 인프라와 관련해 2조 7300억 원을 투자했으며, 한국 GDP에 약 4조 9100억 원의 경제적 효과를 기여한 것으로 추정된다. 함기호 대표는 “AWS는 향후 5년간 서울 리전의 데이터센터 공급망 구축과 운영을 위해 7조 8500억 원을 투자할 계획이다. 이번 투자를 통해 AWS는 건설, 시설 유지보수, 엔지니어링, 보안, 통신 등 다양한 산업분야에 걸쳐 2027년까지 한국 GDP에 약 15조 600억 원의 경제적 가치를 기여할 전망이며, 직/간접 그리고 유발 효과로 연평균 1만 2300개 이상의 전일제 일자리를 지원할 것으로 보인다”고 설명했다.   ▲ AWS코리아 함기호 대표   산업 분야에서 생성형 AI의 잠재력에 주목 AWS의 올리비에 클라인 수석 테크놀로지스트는 ‘AWS 생성형 AI 이야기 : 머신러닝에서 AI, 클라우드까지’라는 주제의 기조연설에서 생성형 AI(Generative AI)의 발전상과 함께 다양한 분야에서 비즈니스 운영을 혁신할 수 있는 AI의 잠재력에 대해 소개했다. 생성형 AI는 놀라운 잠재력으로 인해 AI 기술의 발전과 함께 데이터의 양이 크게 늘고, 확장 가능한 컴퓨팅 용량, 머신러닝(ML) 기술의 발전 등이 맞물리면서 생성형 AI는 최근 몇 년 사이에 테크 업계의 핵심 기술로 떠오르고 있다. 클라인 수석 테크놀로지스트는 “생성형 AI를 통해 향후 10년간 전 세계 GDP가 7조 달러 증가할 것으로 예상되며, 기업은 생산형 AI를 엔지니어링, 마케팅, 고객 서비스, 재무, 영업 등 다양한 비즈니스 영역에 적용할 수 있다”고 짚었다. 최근 다양한 생성형 AI 서비스가 등장해 미술, 음악, 텍스트, 이미지, 애니메이션, 동영상 등 크리에이티브 콘텐츠 제작 방식을 바꾸고 있다. 이외에도 생성형 AI는 챗봇, 가상 비서, AI 고객 센터, 개인화 및 콘텐츠 조정 기능을 강화하여 고객 경험을 향상시키는 데 기여할 수 있다. 기업 내부적으로는 대화형 검색, 콘텐츠 제작, 텍스트 요약, 코드 생성 등을 지원함으로써 조직의 생산성을 높인다. 지능형 문서 처리, 유지보수 지원, 품질 관리, 육안 검사, 합성 학습 데이터 생성을 통해 운영을 간소화할 수 있다는 점도 주목을 받고 있다. 일례로, LG는 아마존 세이지메이커를 활용한 AI 아티스트를 제작해 다양한 디자인을 생성하고 있으며, 오토데스크는 AWS와 협력해 항공기 구조물의 다양한 렌더링을 제작하고 구조 경량화 및 최적화를 진행하고 있다. 클라인 수석 테크놀로지스트는 “생성형 AI 기반의 합성 데이터로 AI를 학습시키면 기존 AI를 확장할 수 있고, 3D 시뮬레이션을 활용해 예외적인 상황에 대해 AI가 학습할 수 있는 합성 데이터를 만들 수도 있다”고 전했다.   ▲ AWS 올리비에 클라인 수석 테크놀로지스트   다양한 AI 기술 개발부터 지원 프로그램까지 AWS는 강력한 기능, 안전한 솔루션, 광범위한 교육 리소스를 통해 모든 사람이 생성형 AI에 액세스하고 혁신을 이룰 수 있도록 돕는다는 전략을 세웠고, 다양한 기술 개발을 추진하고 있다. 아마존 베드록(Amazon Bedrock)은 텍스트와 이미지 등 기초 모델(파운데이션 모델)에 액세스하기 위한 플랫폼이다. 확장성과 데이터 프라이버시를 보장하면서 커스터마이징 기능을 제공하여 사용자가 최소한의 레이블 데이터로 모델을 미세 조정할 수 있는 것이 특징이다. 이에 기반해 AWS가 선보인 아마존 베드록 에이전트는 생성형 AI 애플리케이션을 개발하기 위한 작업을 자동화할 수 있다. 아마존 코드위스퍼러(Amazon CodeWhisperer)는 AI가 실시간으로 코드를 제안함으로써 코딩 작업을 간소화하고 개발자의 생산성을 높인다. 클라인 수석 테크놀로지스트는 “코드위스퍼러를 사용한 생산성 챌린지 참가자들은 57% 더 빠르게 작업을 완료하고 27% 더 높은 성공률을 보였다. 액센츄어, 코흐 인더스트리스(Koch Industries), 스머그머그(SmugMug), 인포시스(Infosys), 퍼블리시스 사피엔트(Publicis Sapient), HCL테크 등에서 생산성을 높이고 성능을 개선하기 위해 코드위스퍼러를 사용하고 있다”고 소개했다. AWS 헬스스크라이브(HealthScribe)는 의료 분야에서 대화를 기반으로 임상 문서 생성을 가속화하는 서비스이다. 이 서비스는 음성 인식과 생성형 AI를 활용하여 포괄적인 임상 노트를 생성함으로써 의료 분야의 생산성 향상에 기여할 수 있다. 클라인 수석 테크놀로지스트는 생성형 AI를 위해 데이터 임베딩의 저장과 검색 효율을 높이고 데이터 중복을 줄여서 유지보수를 간소화하는 AWS의 벡터 데이터베이스 기능,  딥러닝 트레이닝 및 추론을 위한 성능과 비용 효과를 높이는 아마존 EC2 Inf2 인스턴스 및 Trn1 인스턴스를 포함한 전용 가속기와 ML 칩 등도 소개했다. 그러면서 “AWS는 생성형 AI를 통해 혁신을 주도하고 다양한 산업에서 채택을 가속화할 수 있는 광범위한 도구와 서비스를 제공하고 있다”고 전했다. AWS코리아는 국내 기업들이 생성형 AI의 활용을 지원하기 위한 프로그램을 운영한다고 밝혔다. AWS코리아의 생성형 AI 지원 프로그램은 기업들이 생성형 AI 분야의 핵심인 기초 모델을 개발하고 운영하기 위한 조기 투자를 실행하고, 글로벌 생성형 AI 시장을 주도할 수 있도록 돕는 것이 목표이다. 대규모 언어 모델(LLM), 멀티 모달 모델 및 타 전문 분야 모델을 포함한 모든 형태의 기초 모델을 개발하고 운영하는 기업에게 최대 100만 달러의 AWS 크레딧과 기술 및 비즈니스 지원, 파트너 에코 생성 지원과 공동 세일즈 마케팅을 제공한다. AWS코리아는 2023년 4분기부터 2024년 1분기까지 총 500만 달러의 투자가 진행될 예정이라고 밝혔다.     산업 분야의 클라우드 활용 방안과 사례 소개 한편, AWS코리아는 이번 인더스트리 위크 행사에서 리테일, 통신/미디어, 금융/핀테크, 제조, 하이테크 등 산업 분야에 걸쳐 확장되는 클라우드의 활용 사례와 이를 뒷받침하는 자사의 기술 및 솔루션을 소개했다. 리테일 분야에서는 지속 가능한 비즈니스 성장을 위한 리테일 전략으로 민첩성과 데이터를 꼽았고, 통신 및 미디어 분야에서는 비즈니스 다음 단계의 성공을 위한 통신 미디어에서의 클라우드 혁신 방안을 짚었다. 금융 및 핀테크 분야에서는 금융 비즈니스의 성장과 성공을 지원하는 금융 클라우드를, 하이테크 분야에서는 다양한 밸류체인에서 클라우드 활용을 통한 하이테크 비즈니스 혁신을 소개했다. 특히 제조 분야에서는 인공지능/머신러닝, 사물인터넷, 데이터, 지속가능성 등 제조업의 클라우드 트렌드를 짚었다. 그리고 ▲SK디스커버리의 그룹사 통합 데이터레이크 구축 ▲대규모의 IoT 로그 처리를 위한 수프리마의 아키텍처 변화 ▲HD현대일렉트릭의 스마트 에너지 플랫폼 구축과 적용 ▲두산에너빌리티의 현장 예측 진단 솔루션 클라우드화 ▲현대엔지니어링의 2D/3D 플랜트 설계 가상화 ▲LLM을 활용한 한국타이어의 고객 피드백 분석과 성능 개선 등이 발표됐다.   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-11-02
AWS의 신규 EC2 인스턴스에 인텔 4세대 제온 스케일러블 프로세서 탑재
아마존웹서비스(AWS)가 커스텀 4세대 인텔 http://intel.com/ 제온 스케일러블 프로세서로 구동되는 신규 아마존 일래스틱 컴퓨트 클라우드(Amazon Elastic Compute Cloud, 이하 아마존 EC2) 인스턴스를 발표했다. 4세대 인텔 제온 프로세서 기반 인스턴스는 지속적으로 증가하고 있으며, 사용자에게 매력적인 총소유비용(TCO)를 제공한다. 또한 CPU 중 가장 많은 내장 가속기를 제공하여 AI, 데이터베이스, 네트워킹 및 엔터프라이즈 애플리케이션과 같은 주요 워크로드를 처리한다. 아마존 EC2 M7i-flex 및 M7i 등 신규 아마존 EC2 인스턴스는 AWS의 글로벌 인프라를 통해 4세대 인텔 제온 스케일러블 프로세서의 내장 가속기 성능을 고객들에게 제공한다. 인텔 어드밴스드 매트릭스 익스텐션(Intel AMX)과 같은 내장 가속기는 증가하는 AI 워크로드 수요를 가진 고객들이 필요로 하는 대안을 제공한다. 인텔 AMX를 갖춘 4세대 인텔 제온 스케일러블 프로세서는 200억 개 미만의 매개변수를 가진 대규모 언어 모델에 대한 추론 성능 지표를 충족한다. 이를 통해, 대규모 언어 모델을 일반용 인프라에서 비용 효율적이고 지속 가능하게 운영하도록 지원한다. M7i-flex 인스턴스는 대부분의 범용 워크로드에서 높은 가격 대비 성능을 제공한다. 웹 및 애플리케이션 서버, 가상 데스크톱, 일괄 처리, 마이크로서비스, 데이터베이스 및 기업 애플리케이션 등 범용 워크로드를 원활하게 실행하도록 설계됐으며, 기존 M6i 인스턴스 대비 최대 19% 향상된 가격 대비 성능을 제공한다. M7i 인스턴스는 대규모 애플리케이션 서버와 데이터베이스, 게임 서버, CPU 기반 머신 러닝 및 영상 스트리밍 등의 워크로드에서 가격 대비 성능 이점을 제공한다. 최대 192개의 vCPU 및 768 GiB의 메모리를 제공하며, 신규 내장 가속기로 데이터 작업의 효율적인 오프로드(offload) 및 가속화를 지원한다. 이를 통해 데이터베이스, 암호화 및 압축, 큐 관리 워크로드의 성능 최적화를 지원한다. 기존 M6i 인스턴스 대비 가격 대비 성능을 최대 15% 높였다. 인텔의 제온 제품 및 솔루션 그룹 총괄인 리사 스펠만(Lisa Spelman) 부사장은 “인텔은 AWS와 긴밀히 협력해 풍부한 기능의 4세대 인텔 제온 스케일러블 프로세서를 AWS 클라우드 고객에 제공했다. 이에 많은 고객들이 프라이빗 및 공개 프리뷰를 통해 성능과 가치를 수 개월간 누릴 수 있었다”며 “이번 발표로 인텔은 전 세계 클라우드 고객들에게 동일한 실제적인 가치를 제공할 수 있어 기쁘다”고 말했다. 한편, 인텔과 AWS는 고객들에게 워크로드, 성능 및 가격 요구사항에 가장 적합한 제품 선택지를 제공하는 것은 물론, 미래 디지털 인프라 수요에 대응하는데 필요한 편리성과 유연성도 함께 제공하겠다고 밝혔다. 현재, M7i-flex 및 M7i 인스턴스는 미국 동부(오하이오), 미국 동부(북 버지니아), 미국 서부(오레곤), 및 유럽(아일랜드) 등의 AWS 리전에서 이용할 수 있다.
작성일 : 2023-08-03
AWS, 기업의 생성형 AI 활용 돕는 혁신 센터 프로그램에 투자 발표
아마존웹서비스(AWS)는 생성형 인공지능(AI) 솔루션 구축 및 구현을 지원하는 ’AWS 생성형 AI 혁신 센터’ 프로그램을 발표했다. 이 혁신센터는 AI 및 머신러닝(ML) 전문가를 전세계 고객과 연결해 새로운 생성형 AI 제품, 서비스 및 프로세스의 구상, 설계, 출시를 지원할 예정이다. AWS는 생성형 AI 혁신 센터 프로그램에 1억 달러를 투자하겠다고 밝히면서, "다양한 분야의 기업들이 자사의 제품과 운영을 혁신할 수 있는 생성형 AI의 잠재력에 많은 기대를 하고 있다. AWS 생성형 AI 혁신 센터는 이러한 기업들이 아이디어를 더 신속히, 효과적으로 실현할 수 있도록 지원할 것"이라고 전했다. AWS 생성형 AI 혁신 센터 팀은 전략 전문가, 데이터 과학자, 엔지니어 및 솔루션 아키텍트로 구성돼 있으며, 생성형 AI를 활용한 맞춤형 솔루션을 구축하기 위해 고객과 단계별로 협력할 예정이다. 예를 들어, 제조업체는 산업 디자인과 프로세스를 재창조할 솔루션을 구축할 수 있으며, 헬스케어 및 생명 과학 기업은 신약 연구 및 개발을 촉진하는 방법을 개발할 수 있다. 또한 금융 서비스 기업은 고객에게 보다 개인화된 정보와 조언을 제공하는 방법을 개발할 수 있다. 또한, AWS는 무료로 제공되는 워크숍, 실습 및 교육 등을 통해 모범 사례 및 전문 지식을 바탕으로 고객들이 그들의 비즈니스에 최대의 가치를 창출할 수 있는 이용 사례를 생각하고 그 범위를 구체화할 수 있도록 지원한다. 고객은 AWS 및 AWS 파트너 네트워크(APN)의 생성형 AI 전문가들과 긴밀하게 협력하여 적절한 모델을 선택하고, 기술적 또는 비즈니스적인 과제 해결을 위한 방안을 탐색하고, 개념 증명(PoC)을 개발하며, 대규모 솔루션 출시 계획을 수립할 수 있다. 생성형 AI 혁신 센터 팀은 생성형 AI를 책임감 있게 적용하고 머신 러닝 운영을 최적화하여 비용을 절감하기 위한 모범 사례 지침을 제공할 예정이다. 또한, 실습을 통해 AWS는 고객이 AI 기반 코딩 도구인 아마존 코드위스퍼러(Amazon Code Whisperer)와 API를 통해 AWS의 생성형 AI 서비스를 활용할 수 있도록 돕는다. 고객은 또한 AWS의 고성능 EC2 인스턴스를 사용하여 모델을 훈련 및 실행할 수 있고, 아마존 세이지메이커(Amazon SageMaker)를 사용하여 자체 모델을 구축, 훈련 및 배포할 수도 있다. 그리고 아마존 세이지메이커 점프스타트(Amazon SageMaker Jumpstart)를 사용하여 인기 있는 FM 중 일부를 배포할 수도 있다. AWS의 맷 가먼(Matt Garman) 세일즈, 마케팅 및 글로벌 서비스 담당 수석 부사장은 "아마존은 25년 이상의 AI 경험을 보유하고 있으며, 10만 명 이상의 고객이 AWS AI 및 ML 서비스를 그들의 가장 큰 기회와 어려움에 활용해왔다"며 "생성형 AI 혁신 센터는 유연하고 비용 효율적인 생성형 AI 서비스를 제공하여 모든 조직이 AI를 적극 활용할 수 있도록 지원하겠다는 AWS 목표의 일환이다. 여기에는 생성형 AI가 가진 모든 장점을 충분히 활용할 수 있도록 AWS의 생성형 AI 전문가 팀이 함께한다. AWS는 글로벌 파트너 커뮤니티와 함께 각 산업의 비즈니스 리더들과 협력하여 생성형 AI가 조직에 미치는 영향을 극대화하고 그들의 고객, 직원 및 수익을 위한 가치를 창출할 수 있도록 지원하고 있다”고 전했다.
작성일 : 2023-06-28
AWS, 도시·공장의 공간 시뮬레이션을 위한 '심스페이스 위버' 발표
아마존웹서비스(AWS)는 미국 라스베이거스에서 열린 AWS 리인벤트(AWS re:Invent) 행사에서 고객이 대규모 공간 시뮬레이션을 구축/운영/실행할 수 있도록 지원하는 완전 관리형 컴퓨팅 서비스인 'AWS 심스페이스 위버(SimSpace Weaver)'를 발표했다.  AWS 심스페이스 위버는 공간 시뮬레이션을 배포하여 도시 전체의 교통 패턴이나 장소의 군중 흐름 또는 공장 레이아웃 등 많은 데이터 포인트가 있는 동적 시스템을 모델링한다. 이후 시뮬레이션을 사용하여 물리적 공간을 시각화하고 몰입형 훈련을 수행하며, 다양한 시나리오에 대한 통찰력을 얻고 그에 기반한 결정을 내릴 수 있다. AWS 심스페이스 위버를 사용하면 수백만 개 이상의 엔터티가 실시간으로 상호 작용하는 시뮬레이션을 실행하고 이전보다 더 정교한 환경을 생성하는 동시에, 클라우드에서 대규모로 공간 시뮬레이션을 배포하는 시간을 단축할 수 있다.  오늘날 운송, 로보틱스, 공공 안전을 포함한 다양한 산업의 고객은 실제 결과를 예측하고, 몰입형 공간에서 시각화와 훈련을 진행하기 위해 다이내믹한 3D 실험을 필요로 한다. 예를 들어 도로가 폐쇄됐을 때 미치는 영향을 구현하기 위해 고객은 경로에서 다양한 폐쇄 조합을 시뮬레이션할 수 있다. 이러한 유형의 복잡한 공간 시뮬레이션에는 상당한 컴퓨팅 리소스가 필요하다. 또한 컴퓨팅 인스턴스에서 상호 작용하는 수백만 개의 엔터티로 공간 시뮬레이션을 통합하고 확장하는 것은 어려운 프로세스다. 이를 위해서는 시뮬레이션과 그 구성 요소를 조각으로 나누고 해당 조각을 일관된 속도로 시뮬레이션하며, 다수의 실제 사용자는 물론 환경 전체에 걸쳐 관련 데이터를 복제해야 한다. 이러한 문제를 해결하려면 수년간의 투자와 특수 하드웨어가 필요할 수 있으며, 결과적으로 자금력이 탄탄한 조직을 제외하고는 시뮬레이션 비용 부담이 커진다. 또한 공간 시뮬레이션은 추가 컴퓨팅으로 가능한 크기와 밀도를 활용하도록 프로그래밍해야 하므로 컴퓨팅 구성과 활용에 대해 교육을 받은 전문 조직이 필요하다. 결과적으로 고객은 시뮬레이션 로직의 정교함을 절충하여 기본 시나리오만 탐색하도록 제한되는 반면, 민감하고 비용이 많이 드는 상황과 같이 미묘한 문제는 단순히 추정만 하게 된다.   ▲ 이미지 : AWS 웹사이트 캡처   AWS 심스페이스 위버는 고객이 실제 시스템에 가까운 실험을 수행하고, 몰입형 교육 공간을 시각화할 수 있는 복잡한 대규모 공간 시뮬레이션을 위한 완전 관리형 컴퓨팅 서비스이다. AWS 심스페이스 위버는 사람, 자동차, 신호등, 도로와 같은 백만 개 이상의 움직이는 엔터티를 지원하며, 각 엔터티의 동작과 속성은 모두 실시간으로 상호 작용한다. 고객은 시뮬레이션 애플리케이션을 구축하기 위해 AWS 심스페이스 위버 소프트웨어 개발 키트를 사용하여 사용자 지정 시뮬레이션 콘텐츠를 통합하거나, 유니티와 언리얼 엔진 5와 같은 서드파티 툴에 대한 빌트인 통합을 할 수 있다. AWS 심스페이스 위버는 아마존 EC2(Amazon Elastic Compute Cloud) 인스턴스 프로비저닝과 네트워크 및 컴퓨팅 인프라 관리를 처리하므로, 고객은 여러 라이브 뷰어에서 실시간으로 시뮬레이션을 설계하고 관찰하는 데에 집중할 수 있다. AWS 심스페이스 위버는 고객이 시뮬레이션을 배포할 준비가 되면 자동으로 환경을 설정하고 최대 10개의 고가용성, 저지연 아마존 EC2 인스턴스를 네트워크 클러스터에 연결하여 인스턴스 간에 시뮬레이션을 배포한다. 그런 다음 네트워크와 메모리 구성을 관리하고, 인스턴스 간에 데이터를 복제 및 동기화하여 여러 동시 사용자가 실시간으로 시뮬레이션과 상호 작용하고 조작할 수 있는 단일 통합 시뮬레이션을 생성한다.  이를 통해 고객은 시뮬레이션 설계, 시뮬레이션 성능 관찰, 학습한 내용을 토대로 여러 상황에 대비하고 비즈니스 의사 결정에 적용하는 데 집중할 수 있다. 종량제 모델을 적용한 AWS 심스페이스 위버의 확장성과 탄력성은 고객이 공간 시뮬레이션을 관리하기 위해 값비싼 하드웨어나 추가 인력이 필요하지 않음을 보여준다. AWS 심스페이스 위버를 사용하면 다양한 고객이 복잡하고 몰입도 높은 3D 경험을 쉽게 실행하고, 대규모 시나리오를 테스트 및 시각화는 것이 가능하다. AWS의 빌 배스(Bill Vass) 테크놀로지 부문 부사장은 "고객이 공간 시뮬레이션을 확장하려는 경우, 과거에는 하드웨어 용량과 시뮬레이션의 정확성 사이의 균형을 맞춰야 했기 때문에 학습의 유용성이 제한적이었다"면서, "AWS 심스페이스 위버는 시뮬레이션 인프라 관리의 부담을 없애고 고객이 대규모 시뮬레이션을 실행하는 방법을 단순화하여 차별화된 콘텐츠를 만들고 시뮬레이션 개발에 대한 액세스를 확장하는 데 집중할 수 있도록 한다"고 소개했다.
작성일 : 2022-12-02
[포커스] 제조 경쟁력을 위한 디지털 혁신, 클라우드 HPC에서 길을 찾다
제조산업에서도 업무 효율 및 R&D 혁신을 위한 수단으로 클라우드에 대한 관심이 높아지고 있다. 이런 가운데, 효과적인 클라우드 활용 방법을 제시하기 위한 ‘2022 HPC on AWS 온라인 콘퍼런스’가 지난 11월 16일 진행됐다. 캐드앤그래픽스 CNG TV를 통해 진행된 이번 콘퍼런스에서는 설계, 시뮬레이션, 데이터 관리, 협업 등 엔지니어링 영역을 중심으로 클라우드 HPC 관련 기술 동향과 효과적인 활용 방안 등이 폭넓게 소개됐다. ■ 정수진 편집장     클라우드의 목표는 생산성 높이고 혁신을 돕는 것 AWS 코리아의 황민선 ISV 세일즈 매니저는 “클라우드 HPC의 최종 목표는 온프레미스의 한계를 넘어, 시간 낭비 없이 생산성을 높이고 혁신을 지원하는 것”이라고 소개했다. 기존에 많이 쓰이던 온프레미스 HPC는 하드웨어를 확보/교체하거나 유지보수하는 데에 시간과 비용이 들고, 이 과정에서 HPC 작업이 지연되거나 중단되면 생산성이 낮아지거나 혁신의 기회를 놓칠 수 있다. 반면, 클라우드 기반의 HPC 기술은 이런 제약을 없애 기업의 혁신을 가속화할 수 있다는 것이 황민선 매니저의 설명이다. 전체 HPC 워크로드의 20%가 클라우드에서 실행되고 있어 전체 HPC 시장에서 비중은 작지만 향후 성장이 기대된다. 클라우드 HPC 시장 규모는 오는 2026년까지 110억 달러를 넘어설 것으로 보이며, 향후 5년간 17.6% 성장할 전망이다. 또한, HPC 워크로드를 실행 위해 기업이 퍼블릭 클라우드에 투자하는 비용은 올해 23% 이상 증가해 62억 달러를 넘을 것으로 예상되고 있다. 반면 온프레미스 HPC는 앞으로 5년간 6.9% 성장할 것으로 보인다. 황민선 매니저는 “AWS가 제시하는 클라우드 HPC는 무제한의 인프라에 액세스하고, 온디맨드 방식으로 빠르게 확장할 수 있다. 사용한 양만큼 비용을 지불하면서 대규모 투자가 없어도 최신 기술을 즉시 사용 가능한 이점이 있다. 유연한 구성 옵션으로 리소스를 빠르게 선택하고 비용을 최적화할 수 있는 것도 장점”이라고 설명했다.     에지부터 클라우드까지 지원하는 HW·SW 기술 인텔코리아의 이인구 전무는 “기술의 발전과 함께 다양한 기법으로 데이터를 수집, 가공, 분석해 비즈니스 인사이트를 얻고 새로운 비즈니스를 창출하는 흐름이 가속화된다”면서, “에지(edge)의 데이터가 네트워크를 거쳐 스토리지와 서버에 저장되고, 데이터 분석까지 병목 없이 데이터를 심리스하게 처리할 수 있도록 클라우드 아키텍처를 구성하고 소프트웨어 이용해 가속하는 것이 중요하다”고 짚었다. 인텔은 이를 위해 에지에서 생성되는 데이터를 데이터센터로 옮기거나 데이터센터간 빠른 전송을 위한 네트워크, 데이터센터에 더 많은 데이터를 저장하고 빠르게 액세스하기 위한 메모리 및 스토리지, 에지와 데이터센터에서 다양하게 이뤄지는 데이터 분석을 위한 저전력 CPU 및 데이터센터용 CPU, GPU와 AI 가속기 등 폭넓은 제품 포트폴리오를 제공한다. 특히 인텔의 3세대 제온(Xeon) 스케일러블 프로세서는 새롭게 출시된 서버 플랫폼에서 웹 서비스, 인공지능, 검색, 데이터베이스 등 다양한 분야의 성능을 높일 수 있는 것이 특징이다. 또한 보안 솔루션과 증가하는 워크로드를 효과적으로 처리하는 확장성 및 유연성을 제공하는데에 중점을 두었다. 한편, 인텔은 클라우드의 활용도를 높이는 소프트웨어 기술도 제공한다. 여기에는 워크로드의 클라우드 마이그레이션 및 클라우드 리소스를 최적화하는 기술, 데이터의 흐름과 처리 패턴을 실시간 분석해 최적의 실행경로를 탐색하는 워크로드 튜닝 기술, CPU/GPU/FPGA/가속기 등 다양한 아키텍처에서 개발 과정을 단순화하는 개발자 API 등이 있다.     클라우드 HPC의 비용 효율 높이는 CPU/GPU AMD는 데이터센터 시장에서 HPC, 기업용 IT, 클라우드, 인공지능, 가상화&게이밍 분야에 집중하고 있다. AMD 코리아의 김홍필 이사는 “가장 두각을 나타내는 분야는 HPC로, AMD CPU와 GPU 가속기로 구성된 슈퍼컴퓨터가 톱 500 리스트 1위에 오르기도 했다. AMD는 클라우드 분야에서도 다양한 가상화 인스턴스를 출시하는 등 클라우드 HPC에 적합한 솔루션을 제공하고 있다”고 소개했다. AWS에서도 AMD 기반의 다양한 EC2 인스턴스를 제공하고 있는데, 김홍필 이사는 AMD 인스턴스의 강점으로 가격 경쟁력을 꼽았다. 다른 인스턴스에 비해 낮은 가격으로 높은 성능을 제공해 비용 효율을 높일 수 있다는 것이다. 또한, 대부분의 클라우드 인스턴스가 x86 아키텍처로 구동되고 있는데, AMD의 CPU 또한 동일한 아키텍처에 기반하고 있어서, 소프트웨어를 변경하지 않고 AMD 기반 인스턴스로 마이그레이션이 가능하다는 점도 강조했다. 특히 EC2의 HPC6a 인스턴스는 3세대 에픽(EPYC) 프로세서로 구동되는 AWS의 첫 번째 AMD 기반 HPC 인스턴스이다. 최대 96개의 CPU 코어, 3.6Ghz 최대 클럭 속도, 384GB의 메모리를 탑재하고 100Gbps 네트워크를 지원해 HPC에 특화된 성능을 제공한다. 김홍필 이사는 HPC6a 인스턴스에서 CFD 애플리케이션를 테스트한 내용을 소개하면서 “시뮬레이션에서는 노드 증가에 따른 선형적인 성능 향상이 중요한데, HPC6a 인스턴스는 이런 성능을 잘 보여준다. 또한, 많은 인스턴스를 필요로 하는 작업일 수록 비용 절감 효과도 크다”고 전했다.     디지털 스레드로 클라우드 HPC의 활용 최적화 제조산업에서는 시장 경쟁이 심화되고 제품이 복잡해지면서 개발 난이도가 높아지고 있다. 이를 해소하기 위한 디지털 전환에 효과적으로 대응하는 한편, 재택근무가 늘면서 데이터 보안 및 네트워크 보안이 필요하다는 인식은 클라우드 HPC의 도입 증가로 이어지고 있다. 한편, 하드웨어 리소스의 사용량과 시간에 비례해 비용을 지불하게 되는 클라우드 HPC 환경에서는 HPC 리소스의 낭비 문제가 지적된다. 지멘스 디지털 인더스트리 소프트웨어(지멘스 DISW)의 김현준 본부장은 이를 해결하기 위해 전체 해석 프로세스와 데이터의 흐름을 일관되게 관리하는 ‘디지털 스레드 플랫폼’을 제시했다. CAD 플랫폼인 NX, 시뮬레이션 플랫폼인 심센터(Simcenter), 시뮬레이션 프로세스 및 데이터 관리(SPDM) 프로세스를 통해 데이터의 연결성과 일치성 및 소프트웨어 사이의 연계성을 확보한다는 것이 디지털 스레드 플랫폼의 기본 개념이다. 지멘스 DISW의 클라우드 기반 PLM인 팀센터 X(Teamcenter X)는 PLM 시스템과 해석 데이터&프로세스 관리 도구를 제공해, 해석 데이터 및 프로세스 관리를 신속하게 진행할 수 있도록 한다. 또한, 클라우드 플랫폼에서 해석 프로세스 데이터와 툴, 원하는 가상 코어를 적용하고 해석 결과를 확인하는 심센터 클라우드 HPC(Simcenter Cloud HPC)와 연결해 HPC 리소스의 낭비를 막고 해석 데이터의 흐름을 관리할 수 있게 지원한다. 한편, 클라우드 HPC는 공장이나 사물인터넷 빅데이터를 처리하는 데에도 쓰일 수 있다. 김현준 본부장은 “시뮬레이션뿐 아니라 공장 자동화, 공장 데이터, 제품 IoT 데이터 등을 통합해 성능을 높이기 위한 데이터 처리 플랫폼으로 클라우드를 활용할 수 있다”고 전했다.     시뮬레이션의 가치 높이는 클라우드 플랫폼 많은 양의 수학 계산이 필요한 시뮬레이션을 위해서 기존에는 워크스테이션 등 고가의 장비가 쓰였는데, 최근에는 구조, 유동, 전자기, 진동소음, 다물체 동역학 등 다양한 시뮬레이션을 클라우드 기반에서 운영할 수 있게 됐다. 다쏘시스템코리아의 황하나 컨설턴트는 “클라우드는 데이터의 저장과 공유뿐 아니라 효율적이고 유연한 시뮬레이션 환경을 구축할 수 있게 한다”면서, “복잡한 계산은 클라우드가 수행하기 때문에, 일반 PC로도 시뮬레이션 데이터에 손쉽게 접근할 수 있고, 시뮬레이션을 위한 장비를 추가 구매/증설할 필요도 없다”고 설명했다. 한편, 높은 수준의 해석과 함께 조직 내 협업 역시 제품 개발 프로젝트를 성공하기 위한 필수 요소로 꼽힌다. 이를 위해서는 클라우드 플랫폼의 데이터 관리 체계를 통해 복잡한 데이터 간에 연결성을 확보하고, 모델·해석 시나리오·시뮬레이션 결과 등을 통합 관리할 수 있다. 다쏘시스템은 폭넓은 시뮬레이션 솔루션 포트폴리오를 제공하는 시뮬리아(SIMULIA)와 3DX 플랫폼: 역할(role) 기반 구조로 기술-사람-데이터의 연결과 공유를 지원하는 3D익스피리언스 플랫폼(3DEXPERIENCE Platform)을 제공한다. 황하나 컨설턴트는 “3D익스피리언스 플랫폼은 디자인 변경 내용, 해석용 형상, 요소, 시나리오 등을 그대로 유지하면서 추적 관리가 가능하고, CAD 모델과 시뮬레이션용 모델을 따로 제작/관리할 필요도 없다”고 소개했다. 또한 “클라우드를 통해 제품의 성능을 개선할 수 있는 시뮬레이션의 가치를 더욱 키울 수 있다. 나아가 클라우드는 빅데이터와 인공지능 등을 융합하기 위한 선행 기술이기도 하다”고 덧붙였다.     클라우드로 데이터 중심의 협업 구현 과거의 방식으로 구축된 제품 개발 시스템에서는 데이터가 고립된 방식으로 처리되고 보관되고 있다. 이런 환경에서는 필요한 데이터를 찾는 데에 많은 시간이 들고, 협업에도 어려움이 커진다. 오토데스크코리아의 김지훈 차장은 ‘데이터 중심의 프로세스 전환’을 해결책으로 제시했다. 오토데스크는 AWS의 다양한 기능을 활용해 하이브리드 클라우드 기반의 플랫폼 서비스를 구축했는데, 이 서비스는 전체 제품 개발 과정을 간소화하고 데이터 중심으로 협업할 수 있는 프로세스를 제공하는 데에 초점을 두고 있다. 김지훈 차장은 “데이터 중심의 통합 가치사슬을 만들고 공급업체 데이터의 안전한 액세스 및 고객 데이터의 통합을 통해 피드백 순환구조(loop)를 형성해야 제품 혁신을 빠르게 추진할 수 있다”고 설명했다. 오토데스크는 자사의 클라우드 플랫폼 서비스를 제조/건축/미디어 분야에 특화된 솔루션으로 제공하고 있는데, 이 가운데 제조 분야를 위한 플랫폼인 퓨전 360(Fusion 360)은 제품 개발의 시작 단계부터 설계, 데이터 관리, 제조 프로세스, 적층 프로세스 등을 통합된 환경에서 활용할 수 있도록 한다. 김지훈 차장은 “퓨전 360은 F3D 데이터 포맷에서 설계, 해석, 툴패스, 도면 등의 데이터를 하나로 관리할 수 있게 해 전체 제품 개발 프로세스의 연결을 위한 데이터 통합을 지원한다. 그리고 타사의 3D 소프트웨어 솔루션 데이터를 퓨전 360에서 통합해 리얼타임으로 업데이트하고 상호작용할 수 있도록 한다”고 소개했다. 또한, “클라우드 플랫폼은 최신 버전을 실시간 업데이트해 다양한 기능을 즉시 사용하고, 기존 시스템과 플랫폼 시스템을 비즈니스 상황에 맞춰 유연하게 사용할 수 있어야 한다. 또한 설계, 해석, 렌더링에 제한 없이 액세스하고 비즈니스 확대 및 협업을 통한 제조 생태계를 제공해야 한다”고 전했다.     클라우드 시뮬레이션 활용을 더욱 쉽고 빠르게 앤시스 코리아의 최장훈 부장은 “기존에 클라우드에서 시뮬레이션 소프트웨어를 사용하려면 IT 및 클라우드에 대한 전문 지식이 필요했다. 앤시스와 AWS는 지난 10월에는 ‘앤시스 게이트웨이(Ansys Gateway)’를 출시해, 몇 번의 클릭으로 AWS 환경에서 앤시스의 소프트웨어로 쉽고 빠르게 시뮬레이션을 할 수 있도록 돕는다”고 소개했다. 앤시스 게이트웨이는 클라우드에서 VDI(가상 데스크톱 인프라) 및 HPC 기반으로 앤시스의 다양한 애플리케이션을 쉽게 구축할 수 있게 한다. 기존에 가진 앤시스 라이선스와 AWS 계정·크레딧을 사용할 수 있으며, 가상머신(VM)의 생성이나 CPU/메모리/디스크 용량의 변경 등을 손쉽게 할 수 있다. 클라우드상의 가상머신과 HPC 자원의 비용 및 사용량을 관리하는 기능을 제공하며, 데이터 공유 및 협업도 지원한다. 또한 앤시스뿐 아니라 다른 회사의 CAE 및 CAD 소프트웨어도 사용할 수 있게 했다. 최장훈 부장은 “웹 브라우저 기반에서 사용할 수 있도록 앤시스 게이트웨이를 제공해, 클라우드에 대한 기반 지식과 기술이 없어도 사용할 수 있도록 했다. 중요한 목적은 클라우드 시뮬레이션에서 고객이 겪는 하드웨어 관련 장벽을 제거하는 것”이라고 전했다. 현재 앤시스 게이트웨이는 앤시스의 주요 제품을 몇 번의 클릭으로 사용 가능. 플래그십 솔버를 비롯해 워크벤치(Workbench), 모션(Ansys Motion), 셜록(Sherlock), LS-다이나(LS-DYNA), CFX, 아이스팩(Icepak), 맥스웰(Maxwell), SCADE, 스페오스(Speos), 광학해석 툴의 자동 설치를 지원한다.     하이브리드 클라우드를 위한 스케줄링 및 관리 한국알테어의 박진구 책임은 기업이 자체 구축된 온프레미스 서버와 클라우드 가상머신/서버를 함께 구성하는 하이브리드 클라우드 아키텍처에 대해 소개했다. 온프레미스 HPC의 경우 업무량에 따라 시스템의 용량이 부족하거나 남는 경우가 생긴다. 물리적인 서버를 늘리려면 증설 요청부터 주문-배달-설치-운영까지 적지 않은 시간이 걸리는데, 클라우드는 주문부터 운영까지 걸리는 시간이 짧기 때문에 빠르게 대응할 수 있다는 것이다. 또한 사용하려는 소프트웨어에 맞춰 다양한 운영체제, CPU, GPU를 선택할 수 있는 것도 클라우드의 이점 중 하나이다. 알테어는 퍼블릭+온프레미스 또는 퍼블릭+프라이빗을 함께 사용하는 하이브리드 클라우드를 위해 HPC 스케줄러인 PBS와 클라우드 연동을 위한 클라우드 버스팅(cloud bursting) 시스템을 제공한다. 박진구 책임은 알테어가 제시하는 하이브리드 클라우드 구성을 소개하면서 “PBS 스케줄러를 사용해 시뮬레이션 등 사용자의 작업을 위한 클라우드 리소스를 요청하고, VPN을 통해 클라우드와 보안 연결이 가능하다. 온프레미스의 시뮬레이션 솔버 라이선스를 클라우드에서 사용하도록 구성할 수 있다”고 설명했다. 이렇게 구성된 하이브리드 클라우드 환경에서 사용자는 PC에서 클라우드로 작업 파일을 전송하고, 클라우드로 전송된 작업은 퍼블릭 클라우드에서 시뮬레이션을 진행하게 된다. 시뮬레이션 결과는 VPN 보안을 통해 온프레미스 시스템으로 전송되어 사용자는 PC에서 결과를 확인할 수 있다.     엔지니어링 R&D 위한 클라우드 HPC 및 VDI ISBC의 김완희 대표는 최적의 R&D 환경을 지원하는 유연한 클라우드 HPC를 소개했다. 클라우드 HPC에 대해서는 비용 효율과 다양한 컴퓨팅 인스턴스 등의 이점이 알려져 있는데, 김완희 대표는 “ISBC는 HPC 환경에 필요한 통합 R&D 포털을 제공하며, 엔지니어링 VDI를 통해 다양한 전처리 작업 환경을 지원한다. 또한 HPC 서비스와 연동해 해석 솔빙(solving)을 진행할 수 있는  원스톱 VDI+HPC 서비스도 제공한다”고 소개했다. ISBC의 엔지니어링 VDI는 AWS의 그래픽 중심 인스턴스를 사용하며 엔지니어링, 영화/콘텐츠 등 그래픽 작업을 위해 고성능 GPU를 원격에서 활용할 수 있는 환경을 지원하는 것이 특징이다. 한편, 백엔드에서는 HPC 환경에서 다양한 소프트웨어를 함께 사용할 수 있도록 지원한다. 제조기업에서는 다양한 소프트웨어를 함께 사용하는 경우가 많고 머신러닝을 활용하기도 하는데, 김완희 대표는 “이를 위해 유연한 HPC 활용을 지원하는 것이 핵심이다. ISBC는 여러 ISV(독립 소프트웨어 공급사)와 협력하고 있으며 HPC 컨설팅 노하우 및 다수의 레퍼런스를 갖추고 있다”이라고 설명했다.       ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2022-12-01